3 research outputs found
Hizkuntza-arteko distilazioa eta antzekotasun semantikoa maiz egiten diren galderak erantzuteko
Azken urteotan gure artean egon den COVID-19aren harira, gaixotasunari buruzko dudak argitzeko sistema bat garatu nahi izan da, Osakidetzak eskainitako Maiz Eginiko Galderen (MEG) multzo batean oinarrituta; honela, sistemaren helburua, erabiltzaileak galdera bat eginik, MEGean haren semantikoki antzekoena dena bilatzea da, sistemak iragarritako galderaren erantzunak duda argitzeko balioko duela suposatuz.
Hori horrela, ideia nagusia euskarazko zein gaztelaniazko sistema bana garatzea izan da, eta hizkuntza hauen baliabideak ingelesekoekin alderatuz nahikoa mugatuak direnez, distilazio bidezko ikasketa erabili da ahalik eta eredu eraginkorrenak sortzeko, ingelesez birdoitutako ereduetatik ikasiz.
Hala, distilazioak ekartzen dituen onurak aztertu nahi izan dira, distilatu gabeko ereduekin alderatuz domeinuko zein domeinuz kanpoko ebaluazioaren bitartez. Emaitzei erreparatuta, helburu nagusia bete dela ikus daiteke, aipatutako bi ebaluazio motetan distilazioaren bidez hobekuntza nabarmenak lortu baitira distilatu gabeko ereduekin alderatuz, kasu batzuetan emaitza benetan lehiakorrak lortuaz
Detección de carreteras en imágenes de reconocimiento remoto mediante Deep Learning
Resumen en español:
Este proyecto explora las técnicas de detección de carreteras en imágenes RGB de reconocimiento remoto, empezando por métodos de Machine Learning y llegando hasta la aplicación de técnicas de aprendizaje profundo
HiTZ@Antidote: Argumentation-driven Explainable Artificial Intelligence for Digital Medicine
Providing high quality explanations for AI predictions based on machine
learning is a challenging and complex task. To work well it requires, among
other factors: selecting a proper level of generality/specificity of the
explanation; considering assumptions about the familiarity of the explanation
beneficiary with the AI task under consideration; referring to specific
elements that have contributed to the decision; making use of additional
knowledge (e.g. expert evidence) which might not be part of the prediction
process; and providing evidence supporting negative hypothesis. Finally, the
system needs to formulate the explanation in a clearly interpretable, and
possibly convincing, way. Given these considerations, ANTIDOTE fosters an
integrated vision of explainable AI, where low-level characteristics of the
deep learning process are combined with higher level schemes proper of the
human argumentation capacity. ANTIDOTE will exploit cross-disciplinary
competences in deep learning and argumentation to support a broader and
innovative view of explainable AI, where the need for high-quality explanations
for clinical cases deliberation is critical. As a first result of the project,
we publish the Antidote CasiMedicos dataset to facilitate research on
explainable AI in general, and argumentation in the medical domain in
particular.Comment: To appear: In SEPLN 2023: 39th International Conference of the
Spanish Society for Natural Language Processin